Отражение закрытых системных объектов

СИСТЕМНЫЕ ОБРАЗОВАНИЯ: ИНФОРМАЦИЯ И ОТРАЖЕНИЕ


Вяткин В.Б.

ВВЕДЕНИЕ В СИНЕРГЕТИЧЕСКУЮ ТЕОРИЮ ИНФОРМАЦИИ

Обновленное изложение теории опубликовано в "Научном журнале КубГАУ" по адресу:

http://ej.kubagro.ru/a/viewaut.asp?id=762

4.1. Отражение закрытых системных объектов.

Отражаемый системный объект A (рис. 9а) посредством признаков делится на N качественно обособленных частей, каждая из которых по отношению к некоторой системе D выступает в качестве самостоятельного системного объекта Bi.

Рис. 9. Отражаемый объект A и совокупность отражающих объектов B1, ..., BN
а - отражаемый объект закрыт; б - отражаемый объект открыт

Является очевидным, что отражение одного системного объекта через множество других системных объектов в определенной мере характеризуется хаотичностью (неупорядоченностью, рассеянностью) или, иначе говоря, обладает энтропией. В информационном отношении это означает что не вся информация IA, отражаемая системным объектом A, как единым целым, отражается через совокупность системных объектов , и та часть информации, которая остается неотраженной, является функцией энтропии отражения S и может служить ее числовой характеристикой. Определим, чему равна энтропия отражения S, вычисляя ее как разность между отражаемой и отраженной информациями:

,                                                                                                        (25)

где: - аддитивная негэнтропия отражения закрытого системного объекта A совокупностью системных объектов .

Будем считать, что m(A), m(Bi) >> 1, в соответствии с чем согласно выражений (13) и (21) перепишем формулу энтропии (25) в следующем виде:

.                                                                      (26)

Так как при отражении закрытых системных объектов , то отношение представляет собой вероятность встречи элементов, обладающих признаком , среди общего числа элементов . В соответствии с этим, предварительно умножив и разделив число под знаком второго логарифма в выражении (26) на m(A), приведем его к виду:

                                                                           (27)

Освобождаясь в выражении (27) от знака суммы, и заменяя логарифм произведения суммой логарифмов, получаем:

.

Так как , то из последнего выражения следует, что окончательная формула энтропии отражения S имеет вид:

.                                                   (28)

Полученная формула энтропии отражения закрытого системного объекта математически тождественна энтропийной мере Шеннона, взятой при двоичном основании логарифма [24], которая имеет основополагающее значение в традиционной теории информации [25]. Данный факт свидетельствует о том, что синергетическая теория информации и теория информации в версии Шеннона, имея предметом своего познания различные виды информации (связанной с управлением и существующей независимо от него), в то же самое время непосредственно взаимосвязаны между собой отношением взаимного проникновения друг в друга [26] и, как следствие, в своей совокупности образуют единую количественную теорию информации. Так как в наших рассуждениях энтропия отражения является вторичной, то есть выводимой через негэнтропию отражения функцией, то можно также утверждать, что в информационно-генетическом аспекте синергетическая теория информации является первичной по отношению к теории информации Шеннона.

В отношении собственно аддитивной негэнтропии и энтропии отражения S, приведя выражение (25) к виду:

,                                     (29)

особо отметим следующее. – С диалектических позиций аддитивная негэнтропия и энтропия отражения являются взаимодополняющими противоположностями, в сумме всегда составляют постоянную величину (при фиксированном m(A)) и характеризуют отражение системных объектов с различных сторон: упорядоченности и хаотичности, соответственно [27]. Так как совокупность качественно обособленных частей системного объекта выражает его структуру, а сам отражаемый системный объект при этом выступает в качестве системы, то аддитивную негэнтропию и энтропию S следует считать также соответствующими структурными характеристиками любых системных образований, представленных конечным множеством статистически равнозначных элементов.

Перейдем к анализу поведения и взаимоотношения аддитивной негэнтропии и энтропии отражения S при различном количестве отражающих системных объектов (признаков), а для его удобства перепишем выражение (29) в развернутом виде:

.

Рассмотрим сначала два противоположных процесса: когда и .

В первом случае, при и соответствующем , происходит увеличение и уменьшение S, что в пределе, когда N = 1, дает: и S = 0. Во втором случае, когда и , наблюдается обратное движение, то есть увеличивается S и уменьшается . Соответственно получаем, что при и негэнтропия достигает своего минимального значения. Так как в проводимых рассуждениях количество элементов m(A) не является фиксированной величиной, то определим точную нижнюю грань аддитивной негэнтропии отражения закрытого системного объекта для всего множества возможных значений m(A), то есть, когда . В соответствии с формулой негэнтропии (21) имеем:

[28].

Полученный результат по своей математической форме соответствует общепринятой единице измерения количества информации – биту, но его содержательная сущность принципиально отличается при этом от понимания бита в традиционной теории информации, где 1 бит интерпретируется как максимальное количество информации, которое можно получить в результате выбора одной из двух возможностей. В связи с этим уточним, что следует понимать под единицей измерения информации при количественном определении того ее вида, который существует независимо от управления. Дадим такой единице название бит отражения и определим ее следующим образом: 1 бит отражения есть минимальное количество информации о закрытом системном объекте, которое может быть отражено через покрывающую его совокупность других системных объектов.

Рассмотрим теперь особенности взаимоотношений энтропии S и аддитивной негэнтропии при фиксированном m(A) и различных значениях N. При этом сначала определим их значения, соответствующие максимальной хаотичности или минимальной упорядоченности отражения при заданном N.

Хаотичность отражения системного объекта является максимальной, когда все его качественно обособленные части представлены одинаковым числом элементов или, что, то же самое, все отражающие признаки представляют собой равновероятные события. Соответственно, непосредственно из формулы (28) получаем максимальное значение энтропии отражения:

.                                                                          (30)

С учетом этого из выражения (29) следует минимальное значение аддитивной негэнтропии отражения:

.                        (31)

Максимальная упорядоченность отражения системных объектов при заданном N, в свою очередь, будет иметь место, когда количество элементов в одной части, согласно (24), будет равно m(A) – 2(N – 1), а все остальные части будут включать в себя только по 2 элемента. Соответственно, максимальное значение аддитивной негэнтропии и минимальное значение энтропии, согласно выражениям (19) и (28), будут равны:

                                                 (32)
                                         (33)

Построим графики , как функций от N при фиксированном m(A) и проведем анализ полученной диаграммы (рис. 10).

Рис. 10. Информационное поле отражения системных объектов

Приведенные графики изначально образуют 2 контура: энтропийный abdefh и негэнтропийный или информационный cdfghb, которые локализуют соответствующие области всех возможных значений энтропии и аддитивной негэнтропии отражения закрытых системных объектов при заданном m(A) и произвольных значениях N и . Пересечение этих контуров по точкам b и f позволяет выделить 3 интервала значений N (левый, центральный и правый) с присущими каждому интервалу особенностями взаимоотношения S и , определяющими в целом характер структурного отражения системных образований. Определим границы этих интервалов и рассмотрим соответствующие им особенности отражения.

В точке b , то есть, согласно (30) и (31), имеем, что , откуда . В точке f и решение уравнения, образованного правыми частями выражений (32) и (33) дает, что . При этом необходимо отметить, что поскольку N может принимать только целочисленные значения, то отмеченные границы интервалов практически определяются с точностью до ближнего большего целого.

Отражение системных объектов, попадающих в левый интервал , характеризуется тем, что при любых соотношениях их частей между собой по количеству элементов, справедливо неравенство , то есть упорядоченность отражения превосходит его хаотичность.

В правом интервале наблюдается противоположная картина, когда при любых условиях имеет место неравенство , что соответствует погашению отражаемой информации и преобладанию хаоса над порядком.

В центральном интервале происходит пересечение областей возможных значений аддитивной негэнтропии и энтропии S, вследствие чего между ними здесь наблюдаются различные взаимоотношения. В общем случае и S могут быть как больше, так и меньше друг друга, но в ряде случаев, соответствующих прямолинейной области между точками b и f , имеет место их равенство между собой. В содержательном плане можно говорить, что в интервале значений N от до в отражении системных объектов наблюдается тенденция к взаимному уравновешиванию порядка и хаоса и может достигаться полное негэнтропийно-энтропийное (информационно-энтропийное) равновесие, когда отражение системного объекта, как единого целого, является насколько хаотичным настолько и упорядоченным.

Отмеченные особенности отражения позволяют все системные образования классифицировать, в зависимости от числа их качественно обособленных частей и вида соотношения аддитивной негэнтропии и энтропии S, на 5 типов:

- упорядоченные: ;

- хаотично-упорядоченные: ;

- равновесные: ;

- упорядоченно-хаотичные: ;

- хаотичные:

.Кроме приведенной классификации любые системные образования можно сопоставлять между собой по информационно-энтропийному отношению, которое будем называть R-функцией:

                                                                                                                   (34)

Количество качественно обособленных частей и их соотношение между собой по числу элементов определяют в целом структурную организацию системных объектов, а аддитивная негэнтропия и энтропия S являются мерами ее упорядоченности и хаотичности. То есть R-функция представляет собой обобщенную информационно-энтропийную характеристику структурированности системных образований, значение которой говорит о том, что и в какой мере преобладает в их структурной организации: порядок (негэнтропия) или хаос (энтропия). Так, если R > 1, то в структурной организации преобладает порядок, в противном случае, когда R < 1 - хаос. При R = 1 хаос и порядок уравновешивают друг друга, и структурная организация системных объектов является равновесной.

Для лучшего восприятия описанных информационно-энтропийных особенностей отражения закрытых системных образований целесообразно в популярной форме, на конкретных примерах, показать, что значит структурный хаос правого интервала и порядок левого, а также их уравновешивание друг друга в центральном интервале значений N. Обратимся за примерами к структурной лингвистике, к которой традиционно обращаются при популяризации теории информации и возьмем обезьяну, с которой “работал” французский математик Э.Борель [29]. Проводя мысленный эксперимент, посадим обезьяну за пишущую машинку. Обезьяна, случайным образом ударяя по клавишам, получает чехарду букв, лишенную всякого смысла. Такой “текст” олицетворяет хаос правого интервала, а его R-функция стремится к нулю (при длине “текста”, не превышающем количество букв используемого алфавита). Посадим теперь за другую пишущую машинку дятла, который, методично ударяя по одной и той же клавише, иногда даже “случайно промахиваясь”, выдает практически однобуквенную последовательность. “Текст” дятла также является совершенно бессодержательным и соответствует крайней левой части левого интервала, где идеальный порядок и серое однообразие. R-функция при этом стремится к бесконечности. Продолжая лингвистическую тему, в качестве примера гармонии отношений хаоса и порядка, присущей информационно-энтропийному равновесию центрального интервала, приведем поэму А.С.Пушкина “Евгений Онегин”, в которой структурная организация логически завершенных участков текста выглядит следующим образом: первое четырнадцатистишие –R = 0,94; второе четырнадцатистишие –R = 0,98; и т.д. В качестве же эталона систем, структурная организация которых обладает устойчивой гармонией отношений хаоса и порядка, укажем семейство систем натурального ряда. При этом под системой натурального ряда понимается система, соотношение частей (системных объектов) которой по количеству элементов выражается натуральным рядом чисел или, иначе говоря, числу элементов в части соответствует ее порядковый номер. Например, выражение: “N-я система натурального ряда”, говорит о том, что в структуре системы выделяется N частей, в первой из которых содержится 1 элемент, во второй – 2 элемента, … , в N-й – N элементов.

Рис. 11. График R-функции систем натурального ряда

График на рис. 11 показывает, что R-функция систем натурального ряда, при последовательном увеличении N, монотонно возрастает и асимптотически приближается к единице.

Литература и примечания

24. Следует отметить, что формула Шеннона получена нами без каких-либо допущений относительно вида энтропии отражения, в то время как сам Шеннон руководствовался априорными требованиями к свойствам своей энтропийной меры. При этом использование логарифмической функции обосновывалось соображениями ее технического удобства, а основание логарифма предлагалось выбирать в зависимости от используемых единиц информации: двоичная единица (бит) – двоичный логарифм, десятичная единица (дит) – десятичный логарифм, натуральная единица (нат) – натуральный логарифм. (См.: Шеннон К. Указ. соч.)

25. Заметим, что в отношении подобного рода совпадений математических формул, выражающих различные сущности, признанный авторитет в области теории информации – академик А.Н. Колмогоров, писал: “Такие математические аналогии следует всегда подчеркивать, так как сосредоточение на них внимания содействует прогрессу науки”. (Колмогоров А.Н. Указ. соч. С. 39.).

26. Это является подтверждением философского заключения Урсула А.Д. о взаимоотношениях различных видов информации: “В природе, по-видимому, нет резких граней … между различными видами самой информации. Высшие виды информации “незаметно” переходят в низшие, и связь с управлением отнюдь не служит той границей, за которой уже нет информации” (Урсул А.Д. Указ. соч. 1975. С. 62. (Разрядка моя – В.В.)).

27. В 1962г. И.Б.Новик предложил трактовать информацию как форму отражения и считать, что информация – это упорядоченность отражения, а шум – неупорядоченность, хаотичность отражения. При этом было сделано предположение о потенциальном существовании закона сохранения информации (количества отражения) в закрытой системе, который должен иметь следующую форму: I + N = const, где I – количество информации, а N – количество шума. Эти рассуждения, по-видимому, можно считать предсказанием выражения (29). (См.: Новик И.Б. Негэнтропия и количество информации // Вопросы философии, 1962, № 6.)

28. Примечательно, что в том случае, когда N = m(A) и познавательной ситуацией диктуется необходимость получения отличных от нуля значений негэнтропии (см. разд. 3), минимальное значение аддитивной негэнтропии отражения закрытого системного объекта, независимо от величины m(A), также составляет 1 бит.

29. См.: Пригожин И., Стенгерс И. Время, хаос, квант. М.: Прогресс, 1994.

Дальше


Главная страница



Hosted by uCoz